Même si la France a été le dernier des pays atlantiques à se lancer dans la colonisation de l’Amérique du Nord, les Français ont été les pionniers de ce continent. Ils l’ont parcouru en tous sens, prenant possession des lieux qu’ils ont nommés, du Saint-Laurent au Pacifique, des régions glacées de la baie d’Hudson aux bayous de la Louisiane, qui, à elle seule, formait le tiers de l’actuel territoire américain. Les Français se sont alliés aux autochtones, qu’ils ont traités comme sujets du roi jouissant des mêmes droits et privilèges qu’eux.